Loading...
机构名称:
¥ 1.0

摘要 人工智能 (AI),尤其是其可解释性,在过去几年中获得了极大的关注。虽然我们通常不会在只关注结果的情况下质疑这些系统的决策过程,但当这些系统应用于决策直接影响人类生活的领域时,我们会密切关注。决策边界附近的噪声和不确定的观察结果会导致无法解释的预测,从而可能导致最终用户的不信任。这引起了人们对可以解释结果的 AI 方法的关注。贝叶斯网络是概率图模型,可用作管理不确定性的工具。贝叶斯网络的概率框架允许在模型、推理和证据中实现可解释性。这些方法的使用大多是临时的,不像更广泛的 AI 研究领域中的可解释性方法那样有条理。因此,我们引入了贝叶斯网络中可解释性的分类法。我们扩展了模型、推理或证据中现有的可解释性分类,以包括对决策的解释。通过简单的医学诊断场景说明了从可解释性方法中获得的解释。本文介绍的分类法不仅可以鼓励最终用户有效地传达获得的结果,还可以帮助他们理解某些预测是如何做出的,更重要的是,为什么做出某些预测。

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日PDF文件第1页

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日PDF文件第2页

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日PDF文件第3页

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日PDF文件第4页

arXiv:2101.11844v1 [cs.AI] 2021 年 1 月 28 日PDF文件第5页

相关文件推荐

2021 年
¥1.0